Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Новые возможности VMware Site Recovery Manager 5.1 для создания катастрофоустойчивой инфраструктуры.


Дни VMworld 2012 на VM Guru продолжаются. Вслед за анонсом новой версии платформы виртуализации VMware vSphere 5.1 (а также новых условий лицензирования), компания VMware анонсировала продукт VMware Site Recovery Manager 5.1 (SRM). О возможностях версии SRM 5.0 мы уже писали вот тут. vCenter Site Recovery Manager — это продукт для управления аварийным восстановлением, обеспечивающий надежную защиту от аварий для виртуальных машин. SRM использует технологию VMware vSphere Replication или средства репликации хранилищ для централизованного управления планами восстановления и автоматизации процессов восстановления и переноса инфраструктур VMware vSphere.

Основные ключевые возможности VMware SRM 5.1:

  • Возможность построения DR-конфигурации без собственного резервного датацентра. В этом случае можно использовать ЦОД сервис-провайдера, работающего по программе предоставления облачных сервисов в аренду - VSPP. В случае серьезного сбоя или аварии в инфраструктуре компания может продолжить исполнять сервисы VMware vSphere из облака.
  • Репликация с поддержкой приложений, а также автоматический Failback при использовании vSphere Replication. Теперь появилась интеграция SRM в механизмом VSS в гостевых ОС, кроме того обратное восстановление с резервной площадки на основную (Failback) возможно не только для технологии репликации на уровне дисковых массивов, но и для технологии репликации на уровне хоста vSphere Replication.
  • Поддержка окружений vSphere Essentials Plus. Как многие уже знают, в Essentials Plus появились встроенные функции vSphere Replication, которые поддерживаются со стороны SRM, поэтому данное издание полностью поддерживается со стороны последнего.

Теперь, как все это выглядит технически. В консоли SRM появились настройки репликации, учитывающие RPO и Guest OS Quiescing с поддержкой VSS. Работает это через VMware Tools в гостевой ОС:

Автоматический Failback с поддержкой vSphere Replication и перенаправлением репликации в случае возврата на основную площадку:

Запланированные миграции в целях тестирования или переезда в другой ЦОД теперь могут происходить без потери данных приложений:

Миграция в публичное облако сервис-провайдера теперь может быть произведена в случае аварии на предприятии. Об этом думали уже давно, но сделали только сейчас:

Такую конфигурацию можно протестировать без урона для инфраструктуры компании. Сейчас это доступно от следующих партнеров VMware:

  • FusionStorm
  • Hosting.com
  • iland
  • VeriStor
  • Terremark

Они могут предоставить различные SLA в зависимости от критичности приложений.

Также улучшилась обработка ситуации All Paths Down (APD), которая поддерживается как со стороны vSphere, так и со стороны SRM:

Ну и появилась поддержка VMware vSphere Essentials Plus, то есть СМБ-сегмент пользователей также может строить катастрофоустойчивые архитектуры для своих сервисов, что раньше было трудно себе представить.

Схема лицензирования VMware Site Recovery Manager 5.1 такова - можно купить продукт отдельно (в этом случае лицензии надо приобретать на защищаемые виртуальные машины), а можно - в составе vCloud Suite (в этом случае лицензироваться будут процессоры хост-серверов):

Традиционно у SRM остаются два издания - Standard и Enterprise. По функциональности они полностью идентичны, разница лишь в том, что изданием Standard можно защитить только 75 виртуальных машин:

Скачать пробную вирсию VMware Site Recovery Manager можно по этой ссылке.


Таги: VMware, SRM, Update, Replication, vSphere, DR, vCenter, VMworld2012

Настройка взаимодействия инфраструктурных серверов с защищенным периметром vGate R2 в инфраструктуре VMware vSphere.


Мы уже немало рассказывали о развертывании и администрировании средства vGate R2, которое предназначено для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности и механизма защиты от несанционированного доступа. На данный момент на рынке это единственное сертифицированное средство защиты инфраструктуры виртуализации, позволяющее обеспечить комплексную защиту серверов ESXi и виртуальных машин. Сегодня мы расскажем о том, как добавить инфраструктурные серверы (AD, DNS и т.п.) в защищенный периметр vGate R2.


Таги: Security Code, vGate, Security, VMware, vSphere

Как установить VMware vSphere Client на Windows 8 и VMRC Error.


Те из вас, кто уже установил Windows 8 RTM, спокойно лежащий на торрентах, возможно пытался установить туда VMware vSphere Client 5.0 Update 1. При установке возникает такая ошибка:

This product can only be installed on Windows XP SP2 and above

Решается такая проблема очень просто: для установщика в свойствах файла нужно поставить режим совместимости с Windows 7:

После этого все устанавливается нормально, однако при открытии vSphere Client на Windows 8 и попытке соединиться с консолью виртуальной машины, мы получаем вот такое сообщение:

The VMRC console has disconnected...attempting to reconnect.

А в Event Log мы увидим вот такую запись:

Application 'C:\Program Files (x86)\Common Files\VMware\VMware VMRC Plug-in\Internet Explorer\vmware-vmrc.exe' (pid 1408) cannot be restarted - Application SID does not match Conductor SID

Все просто - vSphere Client пока не совместим с Windows 8 из-за IE10. Обойти это пока никак нельзя (если знаете как - расскажите в каментах). Вместо этого пока используйте VMware Workstation 9, в которой есть возможность соединяться с консолью виртуальных машин на платформе VMware vSphere 5. Ждем решения от VMware, которой уже пора бы исправлять эту ошибку (будем надеяться, что в vSphere Client 5.1 ее уже нет).


Таги: VMware, vSphere, Client, Windows, Bug, Bugs

VMware vSphere Client 5.1 - последняя версия "толстого клиента".


Как мы уже писали в статье про новые возможности VMware vSphere 5.1, с выходом новой версии платформы VMware vSphere Web Client станет основным средством управления виртуальной инфраструктурой VMware vSphere через сервер vCenter.

На конференции VMworld 2012 было объявлено, что "толстый" клиент vSphere Client 5.1 станет последним толстым клиентом, поставляемым к инфраструктуре vSphere. Следующие будут управляться только через веб-интерфейс:

Причина проста - толстый клиент требует только Windows-платформы, а администраторы сейчас используют различные ОС и устройства доступа к управляющим компонентам ИТ-инфраструктуры.

При этом некоторые возможности VMware vSphere 5.1 уже доступны только через Web Client, например, Enhanced vMotion. Также теперь не требуется vCenter Linked Mode для управления сразу несколькими серверами vCenter - для этого сделали функцию Single Sign On в Web Client, которая позволяет использовать возможности централизованного управления распределенной инфраструктурой (в том числе, в ROBO-сценариях). Веб-клиент еще хорош для тех, кто начинает выполнение сложной задачи на работе, а потом, придя домой, заканчивает ее уже там.

В общем, пора привыкать к Web Client.


Таги: VMware, vSphere, Client, Update, Web Client, vCenter

Издания и лицензирование VMware vSphere 5.1 - обзор изменений.


Мы уже писали о новых возможностях VMware vSphere 5.1 - серверной платформы виртуализации, которая была анонсирована и выпущена на конференции VMowrld 2012. Вместе с выпуском обновленной версии продукта компания VMware внесла достаточно много изменений в издания и политики лицензирования продукта, так как почувствовала сильное давление со стороны основного конкурента - платформы Hyper-V в новой версии ОС Windows Server 2012 со множеством новых возможностей, по совокупности которых инфраструктура Microsoft почти не уступает VMware vSphere.

Итак, основные изменения в изданиях и лицензировании VMware vSphere 5.1:

  • Полная отмена лимитов по vRAM и числу ядер для лицензии на процессор. Напомним, что ранее (в vSphere 5.0) при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор определенного издания, пользователи были вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации. Теперь этих ограничений нет, единица лицензирования - физический процессор сервера, при этом не важно сколько в нем ядер и памяти у самого сервера. Мы писали об этом тут.
  • Во всех изданиях vSphere 5.1, начиная с Essentials Plus, появился виртуальный модуль vSphere Storage Appliance 5.1. Об этом продукте мы уже писали вот тут. Нужен он для создания общего хранилища под виртуальные машины, которое можно создать на базе локальных дисков серверов. Этот продукт обновился и теперь доступен для построения распределенной архитектуры кластеров хранилищ, управляемых через один vCenter.
  • Издание VMware vSphere 5.1 Standard приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), "горячее" добавление устройств виртуальной машины Hot Add, фреймворк антивирусной защиты vShield Endpoint, возможность репликации виртуальных машин vSphere Replication, кластеры непрерывной доступности vSphere Fault Tolerance и, главное, механизм "горячей" миграции хранилищ виртуальных машин vSphere Storage vMotion.
  • Издание VMware vSphere 5.1 Essentials Plus приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), фреймворк антивирусной защиты vShield Endpoint и возможность репликации виртуальных машин vSphere Replication.
  • Важный момент: пользователи vSphere 5.0 теперь не имеют ограничений по vRAM. То есть, изменения в лицензированию имеют обратную силу.
  • Издание VMware vSphere 5.1 Enterpise Plus позволяет иметь до 64 vCPU виртуальных машин.
  • Доступна новая ветка издания VMware vSphere 5.1 Standard with Operations Management. Это издание включает в себя продукт vCenter Operations Management Suite Advanced, а также средство обновления гостевых ОС vCenter Protect Standard.

Как и всегда, пользователи VMware vSphere 5.0 с действующей подпиской и поддержкой (SnS) обновляются на VMware vSphere 5.1 бесплатно.

Все издания продукта VMware vCenter (Essentials, Foudation и Standard) включают в себя следующие возможности:

  • Management service – централизованная консоль управления.
  • Database server – сервер БД.
  • Inventory service – сервис поиска по виртуальной инфраструктуре, в том числе с несколькими vCenter, а также средства кэширования запросов клиентов, что повышает производительность.
  • VMware vSphere Clients - "толстая" и "тонкая" консоли администрирования (Web Client теперь основной), позволяющие управлять несколькими vCenter одновременно.
  • VMware vCenter APIs and .NET Extension – интеграция vCenter со сторонними плагинами.
  • vCenter Single Sign-On – возможность единовременного логина на сервер без необходимости вводить учетные данные в различных сервисах управления виртуальной инфраструктурой.

Издание Standard, помимо возможности управления неограниченным количеством хост-серверов, предоставляет следующие возможности:

  • vCenter Orchestrator – средство автоматизации рабочих процессов в виртуальной инфраструктуре.
  • vCenter Server Linked Mode – общее окружение для нескольких серверов vCenter Server.

Традиционная таблица сравнения функциональности изданий VMware vSphere 5.1, приобретаемых поштучно на процессор:

Сравнение возможностей
vSphere 5.1 Standard vSphere 5.1 Enterprise vSphere 5.1 Enterprise Plus
Компоненты продукта


Единица лицензирования
На 1 CPU На 1 CPU На 1 CPU
Объем vRAM

Не ограничено Не ограничено Не ограничено
Максимальное количество vCPU виртуальной машины
8 32 64
SUSE Linux Enterprise Server for VMware
Средство управления vCenter Server
vCenter Server Foundation 
vCenter Server Standard
vCenter Server Foundation 
vCenter Server Standard
vCenter Server Foundation 
vCenter Server Standard
Возможности продукта


vSphere Hypervisor (платформа ESXi)
Thin Provisioning
Update Manager
Data Protection
High Availability
vMotion
vStorage APIs for Data Protection
Hot Add
vShield Zones
vShield Endpoint
Replication
Fault Tolerance
Storage vMotion
Virtual Serial Port Concentrator
Storage APIs for Array Integration
Storage APIs for Multipathing
Distributed Resources Scheduler (DRS), Distributed Power Management (DPM)
Storage I/O Control и Network I/O Control

Distributed Switch

Host Profiles и Auto Deploy    
Storage DRS и Profile-Driven Storage    

Традиционная таблица комплектов лицензий VMware vSphere 5.1 Essentials, VMware vSphere 5.1 Essentials Plus, VMware vSphere 5.1 Acceleration Kits:

Сравнение возможностей Essentials Kit Essentials Plus Kit Standard 
Acceleration Kit
Standard with Operations Management Kit Enterprise 
Acceleration Kit
Enterprise Plus 
Acceleration Kit
Компоненты продукта
Средство управления vCenter Server
vCenter Server Essentials vCenter Server 
Essentials
vCenter Server Standard vCenter Server Standard vCenter Server Standard vCenter Server Standard
Возможности общего хранилища на локальных дисках (Shared Storage) vSphere Storage Appliance for Essentials Plus vSphere Storage Appliance vSphere Storage Appliance vSphere Storage Appliance vSphere Storage Appliance
Включенные лицензии в пакет 3 сервера, в каждом максимум 2 процессора 3 сервера, в каждом максимум 2 процессора 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам
Объем vRAM на процессор

Не ограничено Не ограничено Не ограничено Не ограничено Не ограничено Не ограничено
Максимальное количество vCPU виртуальной машины
8 8 8 8 32 64
SUSE Linux Enterprise Server for VMware
Возможности продукта
vSphere Hypervisor (платформа ESXi)
Thin Provisioning
Update Manager
vStorage APIs for Data Protection
Data Protection
High Availability
vMotion
vShield Zones
vShield Endpoint  
Replication  
Storage vMotion
Fault Tolerance
Hot Add
Virtual Serial Port Concentrator  
Storage APIs for Array Integration  
Storage APIs for Multipathing  
Distributed Resources Scheduler (DRS), Distributed Power Management (DPM)
Storage I/O Control и Network I/O Control  
Distributed Switch  
Host Profiles и Auto Deploy          
Storage DRS и Profile-Driven Storage          
VMware vCenter Operations Management Suite Advanced          
VMware vCenter Protect Standard          

Полный обзор политик лицензирования и условий поставки VMware vSphere 5.1 приведен в документе " vSphere 5.1 Licensing, Pricing and Packaging".


Таги: VMware, vSphere, Licensing, Update, vCenter, ESXi

Полный список новых возможностей VMware vSphere 5.1.


На конференции VMworld 2012 компания VMware анонсировала выпуск новой версии серверной платформы виртуализации VMware vSphere 5.1. В обновленной версии продукта появилось множество интересных возможностей, отражающих движение компании VMware в направлении развития облачных вычислений. В этой статье мы приведем полный список новой функциональности VMware vSphere 5.1, которая доступна пользователям уже сегодня...


Таги: VMware, vSphere, Update, ESXi, vCenter, VMachines

1 миллион IOPS для виртуальной машины на VMware vSphere 5.1.


На проходящем сейчас в Сан-Франциско VMworld 2012 компания VMware продемонстрировала новые горизонты производительности серверной платформы виртуализации, выжав 1 миллион операций ввода-вывода в секунду (IOPS) для одной виртуальной машины на VMware vSphere 5.1.

Для тестов использовалась следующая конфигурация:

Hypervisor: vSphere 5.1
Server: HP DL380 Gen8
CPU: 2 x Intel Xeon E5-2690, HyperThreading disabled
Memory: 256GB
HBAs: 5 x QLA2532
Storage: 2 x Violin Memory 6616 Flash Memory Arrays
VM: Windows Server 2008 R2, 8 vCPUs and 48GB.
Iometer Config: 4K IO size w/ 16 workers

Напомним, что на прошлом VMworld 2011 также была показана производительность в 1 миллион IOPS (300 000 для одной машины), но для хост-сервера VMware ESXi (суммарно от нескольких виртуальных машин).

Также из любопытных фактов, озвученных на VMworld 2012:

  • 60% серверов уже являются виртуальными, VMware стремится к показателю 90% и более.
  • Число сертифицированных специалистов VMware VCP достигло 125 тысяч.
  • В VMworld 2012 приняли участие 20 000 специалистов.
  • Основная концепция на ближайшее будущее - "Software-defined data center" (по аналогии с приобретенной недавно концепцией компании Nicira - Software-defined networking). Предполагается, что ключевые позиции в этой концепции займут продукты VMware vSphere, vCloud Director, vCloud Connector, Site Recovery Manager, vCenter Operations и vFabric Application Director.

Больше об облачных инициативах VMware - в самое ближайшее время.


Таги: VMware, vSphere, Update, Performance, Storage, VMachines

Репликация дедуплицированных хранилищ в StarWind iSCSI SAN через LAN/WAN-сети.


Мы уже писали о том, что в решении номер 1 StarWind iSCSI SAN для создания отказоустойчивых хранилищ VMware vSphere, есть возможность создания дедуплицированных виртуальных дисковых устройстввот тут), на которых могут быть размещены виртуальные машины.

Те из вас, кто следит за обновлениями StarWind, знают, что в последних версиях продукта появилась возможность репликации дедуплицированных устройств на другой узел кластера StarWind. Причем можно использовать репликацию дисковых устройств как в локальной сети, так и через WAN-сети в целях создания DR-площадки виртуальной инфраструктуры (пока экспериментально).

27-го августа выйдет StarWind iSCSI SAN 6.0, возможно, там последняя конфигурация уже будет поддерживаться полноценно. Пока ее можно тестировать и оценивать производительность и надежность.

Ну а чтобы уже сейчас приступить к развертыванию реплицируемых дедуплицированных iSCSI-хранилищ для вашей инфраструктуры VMware vSphere, компания StarWind выпустила хороший мануал по настройке этой функции "StarWind iSCSI SAN 5.9 Beta : DD devices with replication".

Ну и будете на VMworld 2012 - заходите на стенд StarWind (номер 536) - коллеги расскажут много интересного.


Таги: StarWind, iSCSI, Deduplication, SAN, VMware, vSphere, Storage

VMware прогибается под натиском Microsoft: стало известно об отмене "налога на vRAM" в VMware vSphere.


Уже совсем скоро в Сан-Франциско состоится коференция VMworld 2012, которую ежегодно проводит компания VMware для всех тех, кому интересны технологии виртуализации и облачные инфраструктуры. Там мы увидим много интересных анонсов и изменений в продуктовой линейке VMware, однако один важный анонс уже, по-сути, сделан: VMware отменит ограничения по vRAM для лицензий различных изданий VMware vSphere 5.1, обновленной версии лидирующей на рынке платформы виртуализации. Напомним, что при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор, пользователи сейчас вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации.

Очевидно, что решение об отмене лицензирования по vRAM было принято под давлением того факта, что платформа Microsoft Hyper-V 3.0, которая вышла вместе с обновленной ОС Windows Server 2012, окажется практически эквивалентной по большинству функциональных возможностей платформе VMware vSphere. А как мы уже писали, виртуальная инфраструктура на базе Hyper-V+SC VMM обойдется гораздо дешевле оной от VMware.

То отклонение красного графика в результатах калькулятора Microsoft, выраженное в деньгах, которое мы видим при увеличении коэффициента консолидации, и есть тот самый vRAM Tax - налог, который пользователи плятят за то, что более эффективно загружают свои хост-серверы.

Пользователи отреагировали на отмену налога весьма положительно:

Все это, конечно, хорошо, но этого мало. Даже с отмененным налогом на vRAM компания VMware не сможет противостоять ценовому давлению Microsoft в сегменте малого и среднего бизнеса, поэтому в ближайшее время мы увидим несколько значимых изменений в лицензионной политике VMware именно для СМБ (пока не скажу каких).

Также, чтобы нивелировать старания Microsoft по раскрутке встроенной в Hyper-V технологии репликации виртуальных машин между хостами Hyper-V Replica, VMware исключит vSphere Replication из состава VMware Site Recovery Manager и включит ее в состав самой платформы vSphere 5.1.

Кроме этого, мы увидим Shared-nothing горячую миграцию виртуальных машин между хостами (без общего хранилища) - то, что важно для пользователей СМБ, и то, что уже сделано в Hyper-V.

По всем этим потугам мы видим, что VMware начинает пытаться отбиваться от Microsoft (невероятно, да - VMware все-таки заметила, что у нее есть СМБ-пользователи), однако если цены на vSphere для небольших компаний не будут снижены (или не будут выпущены какие-нибудь особенные спецпредложения) - VMware потеряет этот рынок.


Таги: VMware, vSphere, SMB, Hyper-V, Microsoft, vRAM, Licensing, Update

Microsoft выпустила бету Virtual Machine Converter Plug-in for VMware vSphere Client.


Компания Microsoft, в преддверии выпуска новой версии своего гипервизора Hyper-V 3.0 в составе ОС Windows Server 2012, предпринимает множество шагов по убеждению пользователей в том, что следует переходить на платформу Microsoft с продукта VMware vSphere.

Напомним основные мероприятия Microsoft, проделанные в последнее время:

Теперь подоспело еще одно средство, подталкивающее пользователей к миграции на платформу Hyper-V - плагин Virtual Machine Converter Plug-in for VMware vSphere Client, находящийся сейчас в бета-версии. Этот плагин позволяет администратору VMware vSphere провести миграцию виртуальной машины на vSphere через пункт контекстного меню ВМ. Поддерживаются клиенты vSphere Client 4.1 и 5.0.

Основные возможности продукта MVMC:

  • Миграция виртуальных машин с хостов VMware vSphere на платформу Hyper-V в составе:
    • Windows Server 2012 Release Candidate.
    • Microsoft Hyper-V Server 2012 Release Candidate
  • Добавление сетевых адаптеров (NICs) сконвертированным на Hyper-V машинам.
  • Настройка функций dynamic memory на сконвертированной машине.
  • Поддержка миграции ВМ, которые находятся в кластере VMware HA/DRS.
  • Поддержка миграции ВМ в Failover Cluster на Hyper-V.

Скачать Virtual Machine Converter Plug-in for VMware vSphere Client можно по этой ссылке.


Таги: Microsoft, V2V, VMware, Hyper-V, vSphere

Бета-версия StarWind iSCSI SAN 6.0 уже доступна - новые возможности.


Компания StarWind Software объявила о выпуске публичной бета-версии решения номер 1 для создания отказоустойчивых хранилищ для серверов VMware vSphere и Microsoft Hyper-V - StarWind iSCSI SAN 6.0.

О версии StarWind 5.9 мы уже писали, так вот она, не перетекая в релиз, превратилась в бету StarWind iSCSI SAN 6.0, чтобы выйти уже со всеми новыми возможностями в мажорном обновлении.

Новые возможности StarWind iSCSI SAN 6.0:

  • Улучшенное управление HA-устройствами. Теперь можно добавить новый узел кластера StarWind к HA-устройству, удалить узел или переключиться между ними без необходимости заново пересоздавать HA Device.
  • HA-устройство может использовать другие типы устройств StarWind для хранения данных. Это может быть дедуплицированный диск, "тонкое" устройство IBV или устройство типа DiskBridge.
  • Асинхронная репликация для дедуплицированных хранилищ. Любой iSCSI target может быть использован как хранилище назначения для репликации.
  • Возможность загрузки бездисковых серверов по iSCSI для хранилищ StarWind. Подробно процедура настройки этой функции описана в документе "StarWind iSCSI Boot".
  • Улучшенное резервное копирование для виртуальных машин VMware ESX/ESXi.
  • Некоторые дополнительные возможности для резервного копирования виртуальных машин на Hyper-V.
  • Новый GUI для управления процессом резервного копирования (интегрирован в Management Console).
  • Упрощенный процесс подключения серверов Hyper-V и ESXi.

Скачать бета-версию StarWind iSCSI SAN 6.0 можно по этой ссылке. Более подробно о новых возможностях можно прочитать на форуме.


Таги: StarWind, iSCSI, Update, Storage, HA, VMware, vSphere, Microsoft, Hyper-V

Компания Microsoft выпустила онлайн-утилиту для сравнения стоимости лицензий на инфраструктуру Hyper-V в Windows Server 2012 с VMware vSphere.


После выпуска окончательной RTM-версии своей новой серверной платформы Windows Server 2012, в которую входит обновленный гипервизор Hyper-V 3.0 (+тут), компания Microsoft усилила маркетинговую атаку на VMware. О некоторых элементах этой атаки мы уже писали вот тут, а на днях Microsoft выпустила онлайн-утилиту для сравнения Hyper-V в Windows Server 2012 с VMware vSphere.

Расчет очень прост - пользователю требуется ввести только планируемое количество виртуальных машин и коэффициент консолидации (число ВМ на физический процессор хоста):

В результате мы получаем сравнение затрат на приобретение программного обеспечения Microsoft (Hyper-V+SC VMM) и VMware для создания виртуальной инфраструктуры:

Интересно заявление Microsoft о том, что на сам гипервизор расходов делать не придется - он входит в Windows Server 2012, и, если покупать лицензии по изданию Datacenter, а вся инфраструктура у вас будет от Microsoft - это действительно так (поскольку лицензии на ВМ для Windows Server вам все равно потребуются).

Под результатами вывода по затратам идет табличка унижения VMware vSphere, выражающая очень однобокое сравнение продуктов:

Интересно обыгран момент с коэффициентом консолидации - Microsoft считает, что, начиная с 8 виртуальных машин на CPU хост-сервера, пользователям VMware vSphere 5 придется доплачивать за vRAM виртуальных машин, которая выйдет за предоставляемые лицензией на процессор лимиты:

Очевидно, что данное сравнение, выпущенное вендором, является весьма предвзятым (как, собственно, и все сравнения от VMware). Поэтому для создания более-менее объективной картины, советуем прочитать наш документ "Сравнение функциональных возможностей VMware vSphere 5 и инфраструктуры Microsoft Hyper-V 3.0".


Таги: VMware, Microsoft, Сравнение, vSphere, Hyper-V, Server, Update

Управление питанием хост серверов ESXi (Host Power Management) в VMware vSphere 5.


Если в VMware vSphere Client вы зайдете на вкладку "Configuration", далее в разделе "Hardware" выберете пункт "Power Management", то увидите вот такую картинку:

Это настройки управления питанием хост-сервера VMware ESXi. Они задают политики управления питанием на основе открытого стандарта Advanced Configuration and Power Interface (ACPI), который определяет схему электропотребления на основе состояний процессора: Power Performance States (P-states) и Processor idle sleep states (C-states).

Режимы P-states — это комбинации напряжений и частот работы ядра процессора для различных типов нагрузок на CPU. Правильно выставленная пара «напряжение—частота» позволяет определить необходимую производительность для выполнения текущих задач CPU, что позволет снизить его энергопотребление и тепловыделение. Состояния P-states являются подмножеством рабочего C-state состояния C0.

Режимы C-states — это состояния, в которых процессор находится в различной ситуации относительно его простоя. Например, C1 (Halt) - состояние, когда процессор не исполняет инструкции, но готов мгновенно (с задержкой примерно 10нс) приступить к их исполнению, C2 (Stop-Clock) - состояние, в котором процессор по-прежнему поддерживает актуальное внутреннее состояние, но просыпается большее (до 100нс) время, при этом дополнительно отключены буферы ввода-вывода. C3 (Sleep) - состояние, в котором процессор отключает питание кэшей второго уровня, но сохраняет прочую служебную информацию. Время пробуждения может составлять до 50 мкс. В современных процессорах есть также множество дополнительных состояний, например, C1E с меньшим энергопотреблением и C6 - когда рабочее напряжение на процессоре может быть понижено до нуля.

Теперь, что мы увидим если нажмем на ссылку "Properties" для Power Management Settings:

Вот что значат эти политики:

  • High performance - данная политика максимизирует производительность процессора за счет его поддержки в наивысшем P-state состоянии все время (то есть, по-сути политика энергосбережения отключена). При этом используются только 2 C-state состояния: С0 (running) и C1 (halted). Соответственно, данный режим выдает максимальную производительность, не имеет инерционности и потребляет больше всего энергии. Эта политика выставлена по умолчанию для VMware ESX/ESXi 4.0 и 4.1.
  • Balanced - эта политика разработана для того, чтобы максимально использовать переключения между P-states в целях экономии энергии. Она обладает слегка большей инерционностью, но почти не влияет на производительность. Эта политика выставлена по умолчанию для VMware ESXi 5.0.
  • Low Power - эта политика придумана для максимального энергосбережения, а значит имеет риски по потере хостом ESXi производительности CPU. Она активно использует состояния C-states при различных видах простоя процессора.
  • Custom - по умолчанию эта политика работает как Balanced, но позволяет настроить различные параметры пользователю. Если оборудование хоста не позволяет операционной системе самостоятельно управлять энергопотреблением, то для этой политики будут доступны только варианты Not Supported или High performance.

Определять политики вручную необходимо только тогда, когда вы точно знаете, что с ними делать. Вот, например, табличка, описывающая custom-параметры политики:

О том, как использовать эти настройки, и как они влияют на энергопотребление процессоров, можно прочитать в документе "Host Power Management in VMware vSphere 5".


Таги: VMware, vSphere, Hardware, Power, ESXi

Еще несколько аспектов работы техники VMware vSphere VAAI.


Мы уже писали о том, что такое и как работает технология VMware vStorage API for Array Integration (VAAI) (а также немного тут), которая позволяет передать операции по работе с хранилищами, которые выполняет компонент Data Mover в VMkernel, на сторону дискового массива. Это существенно улучшает показатели производительности различных операций (клонирования и развертывания ВМ, использования блокировок) за счет того, что они выполняются самим массивом, без задействования сервера VMware ESXi:

Если ваш массив не поддерживает примитивы VAAI, то чтобы склонировать виртуальный диск VMDK размером 64 ГБ, компонент Data Mover реализует эту операцию следующим образом:

  • Разделяет диск 64 ГБ на малые порции размером в 32 МБ.
  • Эту порцию 32 МБ Data Mover разделяет еще на маленькие операции ввода-вывода (I/O) размером в 64 КБ, которые идут в 32 параллельных потока одновремнно.
  • Соответственно, чтобы передать 32 МБ, Data Mover выполняет 512 операций ввода вывода (I/Os) по 64 КБ.

Если же массив поддерживает примитив XCOPY (он же Hardware Offloaded Copy и SAN Data Copy Offloading), то для передачи тех же 32 МБ будут использованы I/O размером в 4 МБ, а таких I/O будет, соответственно, всего 8 штук - разница очевидна.

Интересно, как работает VAAI с точки зрения ошибок при передаче данных: например, мы делаем клонирование ВМ на массиве с поддержкой VAAI, и вдруг возникает какая-то ошибка. В этом случае VMkernel Data Mover подхватывает операцию клонирования с того места, где VAAI вызвал ошибку, и производит "доклонирование" виртуальной машины. Далее ESXi периодически будет пробовать снова использовать VAAI на случай, если это была кратковременная ошибка массива.

При этом проверки в разных версиях ESXi будут производиться по-разному:

  • Для ESX/ESXi 4.1 проверка будет производиться каждые 512 ГБ передаваемых данных. Посмотреть этот параметр можно следующей командой:

esxcfg-advcfg -g /DataMover/HardwareAcceleratedMoveFrequency
Value of HardwareAcceleratedMoveFrequency is 16384

Это значение частоты 16384 нужно умножить на порцию 32 МБ и мы получим 512 ГБ. Чтобы поменять эту частоту, можно использовать команду:

esxcfg-advcfg -s <новое значение> /DataMover/HardwareAcceleratedMoveFrequency

  • Для ESXi 5.0 и выше все проще - проверка производится каждые 5 минут.

Помимо описанных в нашей статье примитивов Full Copy, Zero Block и ATS, начиная с версии ESXi 5.0, поддерживаются еще 2 примитива:

  • Thin Provisioning - механизм сообщения хостом ESXi дисковому массиву о том, что виртуальная машина или ее файлы с Thin LUN были удалены или перемещены (в силу разных причин - Storage vMotion, консолидация снапшотов и так далее), поэтому массив может забрать это дисковое пространство себе назад.
  • Block Delete (UNMAP) - собственно, сам механизм забирания массивом назад дискового пространства через функции SCSI Unmap. Поддерживается с vSphere 5.0 Update 1, так как раньше с этим примитивом были проблемы. Более подробно об этом механизме можно прочитать в KB 2014849, а также в статье "VAAI Thin Provisioning Block Reclaim/UNMAP In Action".

С точки зрения дисковых массивов, работающих на NFS (прежде всего, NetApp) в ESXi 5.0 также появилась поддержка примитивов VAAI:

  • Full File Clone – аналог функций Full Copy для VAAI на блочных хранилищах, предназначен для клонирования файлов виртуальных дисков VMDK.
  • Native Snapshot Support – передача на сторону массива функций создания снапшота ВМ.
  • Extended Statistics – включает возможность просмотра информации об использовании дискового пространства на NAS-хранилище, что полезно для Thin Provisioning.
  • Reserve Space – включает возможность создания виртуальных дисков типа "thick" (фиксированного размера) на NAS-хранилищах (ранее поддерживались только Thin-диски).

Функции VAAI включены по умолчанию и будут использованы тогда, когда станут доступны (например, при обновлении Firmware дискового массива, которое поддерживает VAAI).


Таги: VMware, vSphere, VAAI, Storage, ESXi, Enterprise, SAN

Защита виртуальной инфраструктуры VMware vSphere от специфических типов угроз с помощью решения vGate R2.


Мы уже много писали о продукте vGate R2 - средстве номер 1 для защиты виртуальной инфраструктуры VMware vSphere, которое полностью поддерживает пятую версию этой платформы, имеет сертификаты ФСТЭК и предназначено для безопасной настройки хост-серверов и ВМ средствами политик, а также защиты от НСД. В прошлых статьях мы рассказывали о защите облачных инфраструктур сервис-провайдеров от внутренних и внешних угроз. Сегодня мы постараемся обобщить угрозы, существующие в виртуальной среде, и предложить средства защиты на базе продукта vGate R2 и других решений от компании Код Безопасности.


Таги: vGate, Security Code, Security, VMware, vSphere, ESXi

Как сбросить пароль в VMware vSphere 5 Management Assistant (vMA).


Достаточно давно мы уже описывали средство централизованного администрирования хост-серверами VMware vSphere - vSphere Management Assistant (vMA). По сути, vMA - это вынесенная "сервисная консоль" за пределы хост-серверов ESXi в отдельный виртуальный модуль (Virtual Appliance), с которого удобно выполнять консольные команды RCLI (например, мониторинга - resxtop), а также хранить и запускать различные скрипты. Сегодня мы расскажем о том, как восстновить (сбросить) пароль на виртуальном модуле vMA.

Итак, загружаем VMware vMA 5, устанавливаем выбор на пункте меню "SUSE Linux Enterprise Server 11 SP1 for VMware" и нажимаем кнопку <e>:

В появившемся далее экране выбираем строчку с "kernel /vmlinuz" и снова нажимаем <e>:

В следующем экране, в строке ввода, вбиваем init=/bin/bash:

После нажатия <Enter>, вы вернетесь в педыдущее окно, где нужно нажать <b> для загрузки vMA. После загрузки вводим команду, которой и устанавливаем новый пароль:

# passwd vi-admin

Пароль установить непросто. Он должен соответствовать следующим политикам:

  • Не менее 8 символовEight characters
  • Хотя бы один символ в верхнем регистре
  • Хотя бы один - в нижнем
  • Хотя бы одна цифра
  • Хотя бы один спецсимвол (#, $ и т.п.)

Понятно, что такой пароль никому не удобен. Поменять его можно командой:

# sudo passwd vi-admin

vMA будет жаловаться, однако пароль сменит:


Таги: VMware, vSphere, vMA, ESXi

Что такое и как работает технология VXLAN для создания виртуальных сетей нового поколения для виртуальных машин VMware vSphere.


С покупкой VMware компании Nicira стало больше разговоров о технологии VXLAN (Virtual eXtensible LAN), которая предоставляет расширенный механизм создания виртуальных сетей VLAN в крупных ИТ-инфраструктурах, объединяющих несколько датацентров компании (о ней мы уже упоминали). Разумеется, она нацелена на виртуализацию, и ее поддержка будет включена в платформу VMware vSphere в недалеком будущем. То есть VXLAN - это замена VLAN для создания прозрачной мобильной сетевой среды для виртуальных машин, имеющих возможность перемещаться между датацентрами.

Суть имеющейся сегодня проблемы заключается в том, что IP-адрес системы определяет две, по-сути разные, сущности: идентификатор системы и указатель на географическое размещение в сети (датацентр, сегмент), кроме того стандартная концепция VLAN позволяет использовать только до 4096 виртуальных сетей для логической изоляции классов систем, что в крупных инфраструктурах иногда оказывается недостаточно (особенно это касается IaaS-инфраструктур сервис-провайдеров, работающих с сотнями организаций, у каждой из которых свои VLAN).

Поэтому компании Cisco и VMware, к которым присоединились Citrix и Red Hat, разработали стандарт VXLAN, позволяющий организовать логические сети L2 поверх уровня L3 с возможностью минимального внесения изменений в существующую инфраструктуру сетевого взаимодействия в организациях. На данный момент черновик стандарта VXLAN в реализации IPv4 отправлен в организацию IETF, вскоре там будет и документ по реализации в IPv6.

Обзорный ролик по технологии VXLAN:

Образно говоря, технология VXLAN - это способ создания новых логических L2-сетей в рамках уже существующих L3-сетей. В одной VXLAN-сети виртуальная машина уникально идентифицируется двумя следующими параметрами:

  • VXLAN Network Identifier (VNI) - 24-битный идентификатор виртуальной сети, а значит их всего может быть более 16 миллионов штук
  • MAC-адрес машины

Соответственно, в одной VXLAN-сети не может быть машин с одинаковым MAC-адресом, но в разных VXLAN-сетях они вполне могут существовать (что актуально для виртуальных машин, MAC которых генерируется автоматически и глобально не уникален). Большое количество возможных VXLAN-сетей позволяет виртуальным машинам "путешествовать" между инфраструктурой организации и сторонними сервис-провайдерами без изменения сетевой идентификации, сохранением политик и изоляции внутри виртуальной сети безотносительно ее физического размещения (у себя или у IaaS-провайдера).

Для работы инфраструктуры VXLAN есть следующие компоненты:

  • Необходима поддержка режимов Multicast, IGMP и PIM
  • Идентификатор VNI внутри IP-пакета, только машины с одинаковым VNI могут взаимодействовать между собой
  • Шлюз VXLAN Gateway
  • Компонент VXLAN Tunnel End Point (VTEP) на стороне сервера виртуализации
  • Виртуальная сеть VXLAN Segment/VXLAN Overlay

С точки зрения IP-пакета VXLAN, в сети IPv4 его размер увеличивается на 50 байт, а в сети IPv6 - на 70 байт. Работает это примерно так:

Допустим у нас есть виртуальная сеть VXLAN с VNI равным 864. Когда виртуальная машина VM1 хочет послать IP-пакет виртуальной машине VM2 происходят следующие вещи:

  • VM1 по протоколу ARP посылает пакет с запросом MAC-адреса VM2
  • Компонент VTEP1, размещенный на первом сервере VMware ESXi, инкапсулирует этот ARP-пакет в мультикаст-пакет, ассоциированный с виртуальной сетью с VNI 864
  • Все остальные VTEP, получающие этот пакет, добавляют ассоциацию VTEP1 и VM1 в свои VXLAN-таблицы
  • VTEP2  получает пакет, декапсулирует его и посылает броадкаст на портгруппы виртуальных коммутаторов, которым присвоен VXLAN c VNI 864
  • VM2, находящаяся в одной из этих портгрупп, получает ARP-пакет и отвечает своим MAC-адресом
  • VTEP2 на втором хосте ESXi формирует юникастовый пакет и отправляет его уже по существующему маршруту
  • VTEP1 декапсулирует пакет и передает его виртуальной машине VM1

Теперь обратимся к структуре VXLAN-пакета:

В нем есть следующие заголовки (слева-направо):

Outer MAC Header (Ethernet Header)

Он содержит следующие поля:

  • Destination Address - это MAC-адрес VTEP назначения, если этот VTEP является локальным по отношению к ближайшему роутеру, или MAC-адрес самого роутера, если VTEP находится за ним
  • VLAN - опциональное поле с тэгом VLAN (не обязательно в VXLAN-реализации)
  • Ethertype - тип пакета (для IPv4 установлен в 0×0800

Outer IP Header

  • Protocol - содержит значение 0×11, чтобы обозначить, что это UDP-пакет
  • Source IP - IP-адрес VTEP источника
  • Destination IP - IP-адрес VTEP назначения

UDP Header

  • Source Port - устанавливается передающим VTEP
  • VXLAN Port - порт VXLAN IANA (еще не определен)
  • UDP Checksum - контрольная сумма пакета на уровне VXLAN

VXLAN Header

  • VXLAN Flags - различные флаги
  • VNI - 24-битное поле с идентификатором VXLAN
  • Reserved - набор зарезервированных полей

Итак, VM1 по описанному выше алгоритму узнала MAC-адрес VM2, после чего начинает ей адресно слать пакеты примерно так:

  • VM1 посылает IP-пакет к VM2 с адреса 192.168.0.100 на адрес 192.168.0.101
  • VTEP1 берет пакет и инкапсулирует его, добавляя следующие заголовки:
    • VXLAN header с идентификатором VNI=864
    • Стандартный UDP-заголовок с назначенным портом (VXLAN IANA)
    • Стандартный IP-заголовок с IP-адресом VTEP назначения и признаком UDP-пакета
    • Стандартный MAC-заголовок с MAC-адресом следующего устройства (next hop). В данном случае это роутер с маком 00:10:11:FE:D8:D2, который будет использовать стандартную маршрутизацию пакета по IP-сети до VTEP2.
  • Далее VTEP2 получает такой пакет, распаковывает его (он узнает, что это VXLAN, так как это UDP-пакет) и вытаскивает VNI (864). Далее уже очищенный от обертки IP-пакет направляется к VM2, которая находится в портгруппе с VNI 864, перед чем VTEP убеждается, что она может получить пакет
  • Виртуальная машина VM2 получает IP-пакет очищенным, как обычный IP-пакет

Таким образом, технология VXLAN, поддерживаемая в программном обеспечении платформы виртализации и роутеров позволит расширить сферу применения виртуальных сетей VXLAN в виртуальных облачных средах, где виртуальная машина сможет существовать в различных географически разделенных датацентрах, а пользователи смогут распределять нагрузку между своим частным облаком и облаком сервис-провайдера, не прибегая к переконфигурации виртуальных машин в рамках их виртуальных сетей.

Что еще можно почитать на эту тему (источники данной статьи):


Таги: VMware, vSphere, VXLAN, vNetwork, ESXi, Cisco

Компания VMware приобрела Nicira за $1 260 000 000 - зачем?


Многие интересующиеся значимыми событиями, происходящими на рынке виртуализации, уже, наверное, читали о том, что VMware приобрела компанию Nicira за 1,26 миллиарда долларов (из них $1,05 млрд. - кэшем, что весьма много). Сумма этой сделки заставляет обратить на нее внимание и задуматься над тем, как ведущие компании в сфере облачных вычислений видят себе будущее частных облаков.

Для начала небольшой видео-обзор решения Nicira (основной продукт компании - Nicira Network Virtualization Platform ):

Из ролика ничего не понятно - это неудивительно, поскольку технология эта фундаментальная и весьма непростая. Начнем с проблемы, которая существует в крупных компаниях по всему миру, использующих технологии виртуализации на платформе VMware vSphere. Крутые и большие организации уже давно видят виртуализацию не только как платформу, но и как основу существования облаков в контексте абстракции вычислительных ресурсов:

Основа данной концепции такова: мы берем различное железо и хранилища, которые есть в нашем датацентре, объединяем их в общий пул с помощью платформы виртуализации серверов. Далее эти вычислительные мощности и стораджи мы отделяем от логической ценностной единицы ИТ - приложений - с помощью абстракций - виртуальных машин и виртуальных хранилищ. Общий вычислительный пул датацентра мы разрезаем на логически удобные нам единицы (пулы ресурсов) и дальше предоставляем пользователям виртуальные машины с соответствующим уровнем SLA из абстрактных сущностей, которые построены поверх оборудования и вычислительной архитектуры с определенными характеристиками. Делается это с помощью VMware vCloud Director с его концепцией виртуальных датацентров:

Но, помимо абстракции вычислительных ресурсов, нам нужно еще абстрагировать и сервисы хранения. Для этого сегодня существуют техники профилирования хранилищ (Storage Profiles) и средства автоматической балансировки нагрузки на них (Storage DRS):

Следующий аспект: виртуальные машины существуют на серверах и хранилищах уже на логическом, а не на физическом уровне (независимо от вендоров железа), как сделать так, чтобы в датацентре они были защищены политиками, да и сам периметр датацентра тоже был защищен? Ответ прост - есть семейство продуктов VMware vShield:

Прекрасно. Вроде все? Нет, не все. Невиртуализованной у нас осталась еще одна часть, а именно - сети. VMware предоставляет нам распределенный виртуальный коммутатор (Distributed vSwitch) с базовыми технологиями изоляции и контроля (Private VLAN), есть также продукт от Cisco - Nexus 1000V, который выполняет схожие функции, но обладает более широкими возможностями. Все это делается на уровне абстракции сетевых интерфейсов хост-серверов.

Однако в данном подходе нет самого главного - средств абстракции и виртуализации физического сетевого оборудования (коммутаторов, маршрутизаторов), большим парком которых применительно к виртуальным машинам нужно централизованно управлять в датацентре компании, где есть сотни виртуальных сетей, политик и конфигураций. Все это приводит к тому, что на развертывание новой виртуальной машины уходит 2-3 минуты (на сервере+хранилище), а вот на настройку сетевого взаимодействия, VLAN, безопасности, политик и прочего в забюрократизированных организациях уходит несколько дней.

Вот эту фундаментальную проблему и решает компания Nicira, так недешево доставшаяся VMware:

Суть концепции Nicira применительно к сетевому взаимодействию та же самая, что и в серверной виртуализации: собираем весь набор сетевого оборудования разных вендоров в единый пул, где уже на логическом уровне определяем виртуальные сети и политики, после чего можем цеплять их к виртуальным машинам централизованно:

Все это называется программно-определяемые сети (Software-defined networking, SDN) и работает на базе программных решений, разрабатываемых Nicira с далекого 2007 года. Интересно, что основательница VMware, Диана Грин, которую двинули с поста CEO компании, была одним из инвесторов Nicira, о чем мы писали 2 года назад. Диана вышла с неплохим профитом, а Nicira теперь позволит VMware получить законченную концепцию полной виртуализации облачного датацентра. Как нам и обещали, VMware вполне может стать "VMware of Networking". Кстати, теперь при покупке Nicira компания VMware снова двигает своего CEO.

Если тема вам интересна, можно почитать следующие материалы:

Ну и следующая новость - покупка компанией VMware конторы DynamicOps (продукт Virtual Resource Manager, VRM). Эта контора была выделена из небезызвестного банка Credit Suisse и разрабатывает средства для автоматизации гибридных облаков на базе нескольких гипервизоров (что неизбежно будет в крупных организациях с приходом Hyper-V 3.0), а также средства управления сервисными архитектурами вроде Platform-as-a-Service, Database-as-a-Service и Storage-as-a-Service.


Таги: VMware, Nicira, vNetwork, vSphere, vCloud Director, Cloud, Cloud Computing

Наше сравнение функциональных возможностей VMware vSphere 5 и инфраструктуры Microsoft Hyper-V 3.0 (Windows Server 2012 + SC VMM 2012).


В преддверии выхода новой версии платформы Microsoft Hyper-V 3.0 в составе Microsoft Windows Server 2012 мы решили обобщить сведения о новых возможностях этого продукта и более-менее объективно сравнить их с возможностями лидирующей платформы VMware vSphere 5.0. В сравнении учетны различные аспекты функциональности обеих платформ, однако оно ни в коей мере не претендует на свою полноту. Всем известно, что VMware vSphere не просто так номер один на рынке, с другой стороны, Hyper-V стал очень силен. Поэтому что выбирать решать в конечном итоге вам (при этом неплохо проанализировать и стоимость капитальных вложений в лицензии, а также посчитать совокупную стоимость владения обоими решениями).

Собственно, сравнение:

В итоге наш вывод таков - весьма большое количество Enterprise-функциональности присутствует только в издании VMware vSphere Enterprise Plus. В сегменте же среднего и малого бизнеса Microsoft Hyper-V 3.0 вкупе с System Center Virtual Machine Manager 2012 практически ни в чем не уступает остальным изданиям vSphere (а кое-где и превосходит). Поэтому, если вся заявленная функциональность Hyper-V 3.0 работает - то компаниям среднего и малого бизнеса однозначно нужно выбирать эту платформу, потому что это дешевле.


Таги: Microsoft, VMware, Сравнение, vSphere, Hyper-V, vCenter, SC VMM, Update

Список дефолтных паролей для различных продуктов VMware.


Kenny сделал хорошую запись о списке дефолтных аккаунтов для различных продуктов VMware, а мы сведем это в таблицу для вашего удобства, добавив парочку отсутствующих продуктов:

Название продукта Веб-адрес или консоль для доступа Логин (username) Пароль (password)
VMware vSphere Data Recovery http://<имя или IP>:5480 root vmw@re
VMware vSphere Storage Appliance VSA Manager svaadmin svapass
VMware View Administrator http://<имя или IP>/admin Администратор Windows Администратор Windows
VMware Site Recovery Manager Консоль SRM Администратор vCenter Администратор vCenter
VMware vCloud Director http://<имя или IP>/cloud administrator Указывается при установке
VMware vCloud Director Appliance Direct Console root Default0
vCloud Director ApplianceOracleXEDatabase БД vcloud VCloud
VMware vSphere Management Assistant Direct Console vi-admin Задается после логина
VMware vCloud Connector Server http://<имя или IP>:5480 admin vmware
VMware vCloud Connector Node http://<имя или IP>:5480 admin vmware
VMware vCenter Chargeback http://<имя или IP>:8080/cbmui root vmware
VMware Horizon Application Manager http://<имя или IP>, http://<имя или IP>/SAAS/login/0 - -
VMware Horizon Connector http://<имя или IP>:8443 - -
VMware vCenter Appliance (настройка) http://<имя или IP>:5480 root vmware
VMware vCenter Application Discovery Manager http://<имя или IP> root 123456
VMware vCenter Infrastructure Navigator http://<имя или IP>:5480 root Указывается при развертывании OVA-модуля
VMware vCenter Web Client (настройка) http://<имя или IP>:9443/admin-app root vmware
VMware vCenter vSphere Web Client Access http://<имя или IP>:9443/vsphere-client root vmware
VMware vCenter Orchestrator Appliance (Configuration) http://<имя или IP> vmware vmware
VMware vCenter Orchestrator Appliance (Client) http://<имя или IP> vcoadmin vcoadmin
VMware vCenter Orchestrator Appliance (Web Operator) http://<имя или IP> vcoadmin vcoadmin
VMware vCenter Orchestrator for Windows http://<имя или IP>:8283 или http://<имя или IP>:8282, Web Views - http://<имя или IP>:8280 vmware vmware
VMware vCenter Operations Manager http://<имя или IP> admin admin
VMware vCenter Operations Admin http://<имя или IP>/admin admin admin
VMware vCenter Operations Custom UI http://<имя или IP>/vcops-custom admin admin
VMware vShield Manager Console to VM - http://<имя или IP> admin default
Zimbra Appliance Administration Console http://<имя или IP>:5480 root vmware
VMware vFabric Application Director http://<имя или IP>:8443/darwin/flex/darwin.html Задается при развертывании Задается при развертывании
VMware vFabric AppInsight http://<имя или IP> admin Задается при развертывании
VMware vFabric Data Director http://<имя или IP>/datadirector Задается при развертывании Задается при развертывании
VMware vFabric Suite License http://<имя или IP>:8443/vfabric-license-server/report/create - -

Вроде всё. Если знаете еще что-то, напишите, пожалуйста, в каменты.


Таги: VMware, vSphere, vCenter, ESXi, vCloud Director, Horizon, Chargeback, vFabric, Zimbra

Брошюра vGate R2 и ПАК «Соболь» - надежная защита виртуальной инфраструктуры на платформе VMware vSphere 5.


Мы уже писали про средства доверенной загрузки, которые нужно использовать в виртуальной инфраструктуре VMware vSphere 5, чтобы нейтрализовать угрозы, свзанные с доверенной загрузкой, и соответствовать требованиям руководящих документов ФСТЭК. Напомним, что когда дело касается виртуальных машин, организовать их доверенную загрузку можно с помощью сертифицированного средства защиты vGate R2 от компании Код Безопасности, в котором есть множество наборов политик, которые можно применять к различным объектам виртуальной инфраструктуры:

Однако надо помнить, что нужно защищать также и сами хост-серверы ESXi, находящиеся в датацентре компании. Для эффективной защиты сервера виртуализации, помимо vGate R2, необходим электронный замок - ПАК «Соболь» версии 3.0 для реализации следующих защитных механизмов:

  • идентификация и аутентификация пользователей на входе в систему (непосредственно при запуске сервера);
  • ведение журнала безопасности;
  • сигнализация попыток нарушения защиты;
  • запрет загрузки с внешних носителей;
  • контроль конфигурации (PCI-устройств, ACPI, SMBIOS и оперативной памяти).

На эту тему компания Код Безопасности выпустила специальную брошюру "vGate R2 и ПАК «Соболь» - надежная защита виртуальной инфраструктуры на платформе VMware vSphere 5", где можно почитать об основных проблемах контроля целостности хост-серверов VMware ESXi и виртуальных машин и их доверенной загрузки:

Применение обоих средств защиты информации – ПАК «Соболь» версии 3.0 и vGate R2 – в комплексе позволяет защитить сервер с установленной платформой для виртуализации VMware vSphere 5 и нейтрализовать угрозы непосредственного доступа (угрозы, реализуемые до загрузки ОС, и угрозы, реализуемые после загрузки ОС).

Наличие у продуктов сертификатов ФСТЭК России позволяет использовать vGate R2 и ПАК «Соболь» версии 3.0 для защиты информации, составляющей коммерческую или государственную тайну в автоматизированных системах с классом защищенности до 1Б включительно.

Напомним, что версия vGate R2 с поддержкой vSphere 5 уже поступила в продажу, а бесплатную пробную версию продукта можно скачать тут.


Таги: vGate, Security Code, Security, VMware, vSphere, ESXi

Veeam Explorer for Exchange - бесплатная утилита для восстановления объектов Microsoft Exchange.


Компания Veeam Software, выпускающая продукт номер 1 Veeam Backup and Replication, в котором есть мастер восстановления объектов для Microsoft Exchange, объявила о начале открытого бета-тестирования бесплатного продукта Veeam Explorer for Exchange.

С помощью Veeam Explorer for Exchange можно открыть файл резервной копии виртуальной машины, в которой установлен почтовый сервер Microsoft Exchange, осуществлять навигацию в нем по объектам (пользователи/почтовые ящики), а также экспортировать письма в формат .pst и сохранять в .msg. Также есть возможность отправить их непосредственно в вложении письмом.

Утилиту можно использовать с любым изданием Veeam Backup and Replication, включая бесплатное издание Veeam Backup Free. Получить приглашение на бету Veeam Explorer for Exchange можно по этой ссылке.


Таги: Veeam, Backup, Бесплатно, Microsoft, VMware, vSphere

Метрики производительности процессора в утилите esxtop для VMware vSphere.


Мы уже касались некоторых аспектов мониторинга производительности с помощью утилиты esxtop, которая есть на сервере VMware ESXi, а также метрик производительности хранилищ (и немного сетевого взаимодействия). Сегодня мы более детально взглянем на метрики производительности процессора (CPU) для контроля нагрузки виртуальных машин.

Если мы запустим утилиту esxtop, то увидим следующие столбцы (интересующее нас выделено красным):

Нас интересует 5 счетчиков, касающиеся процессоров виртуальных машин, с помощью которых мы сможем сделать выводы об их производительности. Рассмотрим их подробнее:

Счетчик %RUN

Этот счетчик отображает процент времени, в течение которого виртуальная машина исполнялась в системе. Когда этот счетчик для ВМ около нуля или принимает небольшие значение - то с производительностью процессора все в порядке (при большом его значении для idle). Однако бывает так, что он небольшой, а виртуальная машина тормозит. Это значит, что она заблокирована планировщиком ESXi или ей не выделяется процессорного времени в связи с острой нехваткой процессорных ресурсов на сервере ESXi. В этом случае надо смотреть на другие счетчики (%WAIT, %RDY и %CSTP).

Если значение данного счетчика равно <Число vCPU машины> x 100%, это значит, что в гостевой ОС виртуальной машины процессы загрузили все доступные процессорные ресурсы ее vCPU. То есть необходимо зайти внутрь ВМ и исследовать проблему.

Счетчики %WAIT и %VMWAIT

Счетчик %WAIT отображает процент времени, которое виртуальная машина ждала, пока ядро ESXi (VMkernel) выполняло какие-то операции, перед тем, как она смогла продолжить выполнение операций. Если значение этого счетчика значительно больше значений %RUN, %RDY и %CSTP, это значит, что виртуальная машина дожидается окончания какой-то операции в VMkernel, например, ввода-вывода с хранилищем. В этом случае значение счетчика %SYS, показывающего загрузку системных ресурсов хоста ESXi, будет значительно выше значения %RUN.

Когда вы видите высокое значение данного счетчика, это значит, что нужно посмотреть на производительность хранилища виртуальной машины, а также на остальные периферийные устройства виртуального "железа". Зачастую, примонтированный ISO-образ, которого больше нет на хранилище, вызывает высокое значение счетчика. Это же касается примонтированных USB-флешек и других устройств ВМ.

Не надо пугаться высокого значения %WAIT, так как оно включает в себя счетчик %IDLE, который отображает простой виртуальной машины. А вот значение счетчика %VMWAIT - уже более реальная метрика, так как не включает в себя %IDLE, но включает счетчик %SWPWT (виртуальная машина ждет, пока засвопированные таблицы будут прочитаны с диска; возможная причина - memory overcommitment). Таким образом, нужно обращать внимание на счетчик %VMWAIT. К тому же, счетчик %WAIT представляет собой сумму метрик различных сущностей процесса виртуальной машины:

Счетчик %RDY

Главный счетчик производительности процессора. Означает, что виртуальная машина (гостевая ОС) готова исполнять команды на процессоре (ready to run), но ожидает в очереди, пока процессоры сервера ESXi заняты другой задачей (например, другой ВМ). Является суммой значений %RDY для всех отдельных виртуальных процессоров ВМ (vCPU). Обращать внимание на него надо, когда он превышает пороговое значение 10%.

По сути, есть две причины, по которым данный счетчик может зашкаливать приведенное пороговое значение:

  • сильная нагрузка на физические процессоры из-за большого количества виртуальных машин и нагрузок в них (здесь просто надо уменьшать нагрузку)
  • большое количество vCPU у конкретной машины. Ведь виртуальные процессоры машин на VMware ESX работают так: если у виртуальной машины 4 vCPU, а на хосте всего 2 физических pCPU, то одна распараллеленная операция (средствами ОС) будет исполняться за в два раза дольший срок. Естественно, 4 и более vCPU для виртуальной машины может привести к существенным задержкам в гостевой ОС и высокому значению CPU Ready. Кроме того, в некоторых случаях нужен co-sheduling нескольких виртуальных vCPU (см. комментарии к статье), когда должны быть свободны столько же pCPU, это, соответственно, тоже вызывает задержки (с каждым vCPU ассоциирован pCPU). В этом случае необходимо смотреть значение счетчика %CSTP

Кроме того, значение счетчика %RDY может быть высоким при установленном значении CPU Limit в настройках виртуальной машины или пула ресурсов (в этом случае посмотрите счетчик %MLMTD, который при значении больше 0, скорее всего, говорит о достижении лимита). Также посмотрите вот этот документ VMware.

Счетчик %CSTP

Этот счетчик отображает процент времени, когда виртуальная машина готова исполнять команды, одна вынуждена ждать освобождения нескольких vCPU при использовании vSMP для одновременного исполнения операций. Например, когда на хосте ESXi много виртуальных машин с четырьмя vCPU, а на самом хосте всего 4 pCPU могут возникать такие ситуации с простоем виртуальных машин для ожидания освобождения процессоров. В этом случае надо либо перенести машины на другие хосты ESXi, либо уменьшить у них число vCPU.

В итоге мы получаем следующую формулу (она верна для одного из World ID одной виртуальной машины)

%WAIT + %RDY + %CSTP + %RUN = 100%

То есть, виртуальная машина либо простаивает и ждет сервер ESXi (%WAIT), либо готова исполнять команды, но процессор занят (%RDY), либо ожидает освобождения нескольких процессоров одновременно (%CSTP), либо, собственно, исполняется (%RUN).


Таги: VMware, vSphere, esxtop, ESXi, VMachines, Performance, CPU

Уровни очередей (Queues) при работе виртуальных машин с хранилищами VMware vSphere.


Мы уже не раз писали о различных типах очередей ввода-вывода, присутствующих на различных уровнях в VMware vSphere, в частности, в статье "Глубина очереди (Queue Depth) и адаптивный алгоритм управления очередью в VMware vSphere". Недавно на блогах компании VMware появился хороший пост, упорядочивающий знания об очередях ввода-вывода на различных уровнях виртуальной инфраструктуры.

Если речь идет о виртуальных машинах на сервере VMware ESXi, работающих с дисковым массивом, можно выделить 5 видов очередей:

  • GQLEN (Guest Queue) - этот вид очередей включает в себя различные очереди, существующие на уровне гостевой ОС. К нему можно отнести очереди конкретного приложения, очереди драйверов дисковых устройств в гостевой ОС и т.п.
  • WQLEN (World Queue/ Per VM Queue) - это очередь, существующая для экземпляра виртуальной машины (с соответствующим World ID), которая ограничивает единовременное число операций ввода-вывода (IOs), передаваемое ей.
  • AQLEN (Adapter Queue) - очередь, ограничивающая одновременное количество обрабатываемых на одном HBA-адаптере хоста ESXi команд ввода вывода.
  • DQLEN (Device Queue / Per LUN Queue) - это очередь, ограничивающая максимальное количество операций ввода-вывода от хоста ESXi к одному LUN (Datastore).
  • SQLEN (Storage Array Queue) - очередь порта дискового массива (Storage Processor, SP)

Эти очереди можно выстроить в иерархию, которая отражает, на каком уровне они вступают в действие:

Очереди GQLEN бывают разные и не относятся к стеку виртуализации VMware ESXi, поэтому мы рассматривать их не будем. Очереди SQLEN мы уже частично касались тут и тут. Если до SP дискового массива со стороны сервера ESX / ESXi используется один активный путь, то глубина очереди целевого порта массива (SQLEN) должна удовлетворять следующему соотношению:

SQLEN>= Q*L

где Q - это глубина очереди на HBA-адаптере, а L - число LUN, обслуживаемых SP системы хранения. Если у нас несколько активных путей к одному SP правую часть неравенства надо еще домножить на P - число путей.

Соответственно, в виртуальной инфраструктуре VMware vSphere у нас несколько хостов имеют доступ к одному LUN через его SP и получается следующее соотношение:

SQLEN>= ESX1 (Q*L*P) + ESX2 (Q*L*P)+ и т.д.

Теперь рассмотрим 3 оставшиеся типа очередей, которые имеют непосредственное отношение к хосту VMware ESXi:

Как мы видим из картинки - очереди на различных уровнях ограничивают число I/O, которые могут быть одновременно обработаны на различных сущностях:

  • Длина очереди WQLEN по умолчанию ограничена значением 32, что не позволяет виртуальной машине выполнять более 32-х I/O одновременно.
  • Длина очереди AQLEN - ограничена значением 1024, чтобы собирать в себя I/O от всех виртуальных машин хоста.
  • Длина очереди DQLEN - ограничена значением 30 или 32, что не позволяет "выедать" одному хосту ESXi с одного хранилища (LUN) более 30-ти или 32-х операций ввода-вывода

Все эти очереди можно посмотреть с помощью esxtop:

Зачем вообще нужны очереди? Очень просто - очередь это естественный способ ограничить использование общего ресурса. То есть одна виртуальная машина не заполонит своими командами ввода-вывода весь HBA-адаптер, а один хост ESXi не съест всю производительность у одного Datastore (LUN), так как ограничен всего 32-мя I/O к нему.

Мы уже писали о функционале Storage I/O Control (SIOC), который позволяет регулировать последний тип очереди, а именно DQLEN, что позволяет корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами shares (эта функциональность есть только в издании vSphere Enterprise Plus). Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем. Однако, стоит помнить, что механизм SIOC действует лишь в пределах максимально определенного значения очереди, то есть по умолчанию не может выйти за пределы 32 IO на LUN от одного хоста.

Для большинства случаев этого достаточно, однако иногда требуется изменить обозначенные выше длины очередей, чтобы удовлетворить требования задач в ВМ, которые генерируют большую нагрузку на подсистему ввода-вывода. Делается это следующими способами:

1. Настройка длины очереди WQLEN.

Значение по умолчанию - 32. Его задание описано в статье KB 1268. В Advanced Settings хоста ESXi нужно определить следующий параметр:

Disk.SchedNumReqOutstanding (DSNRO)

Он глобально определяет, сколько операций ввода-вывода (IOs) может максимально выдать одна виртуальная машина на LUN одновременно. В то же время, он задает это максимальное значение в IOs для всех виртуальных машин на этот LUN от хоста ESXi (это глобальная для него настройка). То есть, если задано значение 32, то все машины могут одновременно выжать 32 IOs, это подтверждается в случае, где 3 машины генерируют по 32 одновременных IO к одному LUN, а реально к LUN идут все те же 32, а не 3*32.

2. Настройка длины очереди AQLEN.

Как правило, этот параметр менять не требуется, потому что дефолтного значения 1024 хватает практически для всех ситуаций. Где его менять, я не знаю, поэтому если знаете вы - можете написать об этом в комментариях.

3. Настройка длины очереди DQLEN.

Настройка этого параметра описана в KB 1267 (мы тоже про это писали) - она зависит от модели и драйвера HBA-адаптера (в KB информация актуальна на июнь 2010 года). Она взаимосвязана с настройкой Disk.SchedNumReqOutstanding и, согласно рекомендациям VMware, должна быть эквивалентна ей. Если эти значения различаются, то когда несколько ВМ используют с хоста ESXi один LUN - актуальной длиной очереди считается минимальное из этих значений.

Для отслеживания текущих значений очередей можно использовать утилиту esxtop, как описано в KB 1027901.


Таги: VMware, ESXi, Storage, vSphere, Blogs, Enterprise, HBA, VMachines

Использование несбалансированных узлов в кластере хранилищ StarWind iSCSI SAN 5.9 и поддержка ALUA.


Как мы уже писали недавно, в VMware vSphere есть политика путей, называемая Fixed path with Array Preference (в интерфейсе vSphere Client 4.1 она называется VMW_PSP_FIXED_AP). По умолчанию она выбирается для дисковых массивов, которые поддерживают ALUA. Эта политика опрашивает дисковый массив (A-A или A-P), позволяя ему самому определить, какие пути использовать как preferred path, если это не указано пользователем...


Таги: StarWind, HA, iSCSI, Storage, Update, VMware, vSphere, SAN

Еще немного полезного графического материала по VMware vSphere 5: Visio Stencils и иконки.


Мы уже писали недавно об обновленном сборнике иконок, рисунков и диаграмм для документирования инфраструктуры VMware vSphere, который содержит в себе все необходимое для презентаций и документирования проектов по виртуализации. Напомним:

Недавно один добрый человек перевел это все в формат Microsoft Visio:

Еще один выложил полезные иконки, которых мало, но они могут пригодиться:

И он же сделал интересный плагин для Wordpress, показывающий параметры виртуальной инфраструктуры в блоге. Может тоже кому пригодится:

Что-нибудь еще полезное по этой теме подскажете?


Таги: VMware, vSphere, Visio, Graphics, ESXi, vCenter, Blogs

Конвертация виртуального диска VMDK в формат RDM для виртуальных машин VMware vSphere.


Некоторое время назад мы уже писали о возможности конвертации RDM-томов, работающих в режиме виртуальной и физической совместимости, в формат VMDK. Сегодня мы поговорим об обратном преобразовании: из формата VMDK в формат RDM (physical RDM или virtual RDM).

Для начала опробуйте все описанное ниже на тестовой виртуальной машине, а потом уже приступайте к продуктивной. Перед началом конвертации необходимо остановить ВМ, а также сделать remove виртуального диска из списка устройств виртуальной машины. Определите, какой режим совместимости диска RDM вам необходим (pRDM или vRDM), прочитав нашу статью "Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere".

Создайте новый LUN на дисковом массиве, где будет размещаться RDM-том, и сделайте Rescan на хосте ESXi, чтобы увидеть добавленный девайс в vSphere Client:

Обратите внимание на Runtime Name (в данном случае vmhba37:C0:T1:L0) и на идентификатор в скобках (naa.6000eb....итакдалее) - этот идентификатор нам и нужен. Словить его можно, выполнив следующую команду (подробнее об идентификации дисков тут):

# esxcfg-mpath -L

В результатах вывода по Runtime Name можно узнать идентификатор. Вывод будет примерно таким:

vmhba33:C0:T0:L0 state:active naa.6090a038f0cd6e5165a344460000909b vmhba33 0 0 0 NMP active san iqn.1998-01.com.vmware:bs-tse-i137-35c1bf18 00023d000001,iqn.2001-05.com.equallogic:0-8a0906-516ecdf03-9b9000004644a365-bs-lab-vc40,t,1

Соответственно, второе выделенное жирным - идентификатор, его копируем.

Далее выполняем следующую команду для конвертации диска в Virtual RDM:

# vmkfstools –i <исходный>.vmdk -d rdm:/vmfs/devices/disks/<идентификатор>
/vmfs/volumes/datastore/vmdir/vmname.vmdk

Для Physical RDM:

# vmkfstools –i <исходный>.vmdk -d rdmp:/vmfs/devices/disks/<идентификатор>
/vmfs/volumes/datastore/vmdir/vmname.vmdk

Обратите внимание, что команты отличаются только параметрами rdm (виртуальный) и rdmp (физический).

Здесь:

  • <исходный> - это путь к старому VMDK-диску, например, old.vmdk
  • <идентификатор> - это то, что мы скопировали
  • путь с vmdir - это путь к заголовочному VMDK-файлу для RDM-тома (может быть на любом общем Datastore)

Второй вариант клонирования диска подсказывает нам Иван:

vmkfstools --clonevirtualdisk /vmfs/volumes/Demo-Desktop-01/Exchange1/Exchange1_1.vmdk
/vmfs/volumes/Demo-Desktop-01/Exchange1/Exchange1_1_RDM.vmdk
--diskformat rdmp:/vmfs/devices/disks/naa.60a9800057396d2f685a64346b664549

Далее выберите виртуальную машину в vSphere Client и сделайте Add Disk, где в мастере укажите тип диска RDM и следуйте по шагам мастера для добавления диска. После этого проверьте, что LUN больше не показывается при выборе Add Storage для ESXi в vSphere Client. Запустите виртуальную машину и, если необходимо, в гостевой ОС в оснастке Disk Management сделайте этот диск Online.


Таги: VMware, RDM, VMDK, vSphere, ESXi, Storage

Обучение, тестирование и сертификация по продукту vGate R2 от Кода Безопасности.


Мы постоянно рассказываем вам новости о развитии продукта номер 1 для защиты виртуальных инфраструктур - vGate R2 от компании Код Безопасности. Напомним, что он позволяет разделить полномочия администраторов и производить аудит их действий в виртуальной среде, а также защитить корпоративные облака за счет встроенных средств автоматической настройки безопасной конфигурации хостов, а также механизма защиты от несанкционированного доступа.

Сегодня мы расскажем о том, как партнеры компании Код Безопасности могут повысить уровень своей экспертизы в сфере информационной безопасности виртуальных сред, а также продемонстрировать ее своим заказчикам. Для самих заказчиков решения vGate R2 также есть возможность обучиться.

В соответствиии с разделом "Обучение" на сайте Кода Безопасности, по продукту vGate R2 есть только возможность пройти онлайн-обучение и онлайн тестирование, что нисколько не умаляет его ценность. Основной онлайн-курс - это "Развертывание и администрирование средства защиты информации vGate". Он содержит информацию о назначении продукта, его архитектуре и возможностях. В курсе представлены типовые варианты развертывания и использования системы ИБ для инфраструктуры VMware vSphere.

Курс предназначен:

  • Для технических специалистов партнерских организаций Группы компаний «Информзащита», планирующих оказание услуг с использованием продуктов и решений компании ООО «Код Безопасности».
  • Специалистов организаций, планирующих построение систем защиты своих компьютерных систем с использованием продуктов и решений компании ООО «Код Безопасности».

План курса:

  1. Назначение и архитектура vGate.
  2. Установка и развертывание vGate.
  3. Разделение ролей и механизмы аутентификации.
  4. Управление доступом и политики безопасности.
  5. Отчеты.
  6. Дополнительные возможности.
  7. Контрольное итоговое тестирование.

Напомним, что уже достаточно давно появилась и поступила в продажу версия vGate R2 с поддержкой VMware vSphere 5, а на днях обновился онлайн-курс по продукту. Помимо курса обновился и тест. Получить дополнительную информацию о курсах и тестировании можно по телефону +7 (495) 980-2345, доб. 827 или по электронной почте sdo@securitycode.ru.

По прохождении тестирования вам будет выдан сертификат, подтверждающий компетенцию по продукту vGate R2 и методикам защиты виртуальных сред.


Таги: Security Code, Обучение, vGate, Security, VMware, vSphere

Настройка времени неактивности VMware vSphere Client.


Иногда в целях безопасности необходимо настроить время, по прошествии которого если клиент vSphere Client не используется, требуется прервать сессию работы с VMware vCenter. Как подсказывает нам William Lam, сделать это можно двумя способами:

  • Заданием аргумента при запуске исполняемого файла VpxClient.exe (vSphere Client)
  • В конфигурационном файле VpxClient.exe.config на рабочей станции, где установлен vSphere Client

В первом случае мы задаем параметр inactivityTimeout в свойствах ярлыка vSphere Client, где устанавливаем время в минутах, после которого при неактивности клиента будет показан диалог о необходимости повторного логина:

Во втором случае нужно найти файл VpxClient.exe.config, который находится в следующих местах в зависимости от версии ОС:

  • 32bit - %PROGRAMFILES%\VMware\Infrastructure\Virtual Infrastructure Client\Launcher
  • 64bit - %PROGRAMFILES(x86)%\VMware\Infrastructure\Virtual Infrastructure Client\Launcher

Открываем этот XML-файл и прямо перед окончанием секции cmdlineFallback добавляем следующую секцию:

<inactivityTimeout>X</inactivityTimeout>

Если вы задали значение 1, то после неактивности в течение 1 минуты, будет показано следующее сообщение:

Также Вильям указывает на еще 2 интересных параметра, которые могут быть заданы как на уровне аргументов исполняемого файла клиента, так и в VpxClient.exe.config:

  • -expAll либо добавление секции <expAll /> - при открытии vSphere Client ваше Inventory хостов и виртуальных машин будет полностью раскрыто
  • -noPlugins либо добавление секции <noPlugins /> - при запуске клиента все плагины будут отключены

Таги: VMware, vSphere, Client, ESXi, Blogs, Security

Рекомендации по виртуализации различных типов задач в виртуальных машинах на платформе VMware vSphere.


Виктор прислал мне презентацию от того самого Ивана, который на одной из юзер-групп VMware рассматривал особенности дизайна и проектирования виртуальной инфраструктуры VMware vSphere. Часть, касающаяся виртуализации различных типов нагрузок в гостевых ОС виртуальных машин показалась мне очень интересной, поэтому я решил перевести ее и дополнить своими комментариями и ссылками. Итак, что следует учитывать при переносе и развертывании различных приложений в виртуальных машинах на платформе vSphere.


Таги: VMware, vSphere, ESXi, HA, Enterprise, VMachines

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge